苹果端侧AI再突破!FastVLM首字延迟锐降85倍,MobileCLIP2模型减半iPhone畅用
苹果在人工智能领域再次掀起波澜,这次其将两款多模态模型FastVLM与MobileCLIP2同步推向开源社区Hugging Face,不仅开放了模型权重与代码,更提供了可直接体验的WebGPU演示,让大模型真正落地移动端。
iphone 模型 fastvlm mobileclip2 2025-09-08 00:41 5
苹果在人工智能领域再次掀起波澜,这次其将两款多模态模型FastVLM与MobileCLIP2同步推向开源社区Hugging Face,不仅开放了模型权重与代码,更提供了可直接体验的WebGPU演示,让大模型真正落地移动端。
iphone 模型 fastvlm mobileclip2 2025-09-08 00:41 5
苹果公司的研究人员最近推出了MobileCLIP2,这是其高效端侧多模态模型家族的最新成员。作为MobileCLIP的继任者,MobileCLIP2通过改进多模态增强训练方法,在低延迟、轻量级的模型上实现了新的SOTA(State-of-the-Art)性能。
苹果 代码 开源 mobileclip2 dfn 2025-09-02 18:54 6